查看原文
其他

人工智能安全峰会于2023年11月1-2日在英国举办,28个国家签署声明

鲕迩 中国生物救护与科学伦理
2024-08-23

人工智能安全峰会(The AI Safety Summit 2023)于2023年11月1日~2日在英国巴克斯郡的布莱切利庄园举行,为期两天,吸引了来自世界各地的150名代表,包括政府领导、工业界、学术界和民间社会领袖。这一盛会旨在讨论人工智能(AI)的风险和安全问题,以及如何推动全球合作以确保AI的安全和伦理发展。从官网发布的参会代表名单来看,我国政府及学界代表参与了此次会议。


(图源:牛津大学官网)

中国生物多样性保护与绿色发展基金会生物与科学伦理委员会(简称绿会BASE)小编注意到,牛津大学的官网公布了一些AI专家们对此次峰会的评论,并探讨了人工智能伦理(AI Ethics)的意义和挑战。为助力全球环境治理、为我国学者提供信息供决策参考,编译分享信息如下,供感兴趣的读者们参阅。译文仅供参考。

牛津大学公共机构管理实践教授Ciaran Martin认为,峰会的举办是积极的一步,表明英国政府愿意在AI安全领域发挥领导作用。他指出,与其没有任何行动,重复上一代人允许依赖没有安全考虑的技术的错误,不如采取这一倡议。这表明英国政府愿意采取行动来解决AI的安全问题。

然而,这一倡议引发了关于AI风险的不同观点。Ciaran Martin认为,有人将AI问题描述为“末日者”,强调其存在风险,而乐观主义者则持更温和的观点。他认为,过度夸大AI的威胁是有害的,因为AI技术引发了多种安全和安全挑战,包括虚假信息公共服务偏见、高级网络攻击和更容易获取生化武器等。这意味着AI领域存在广泛的问题,需要不同的解决方案和全球社区的协作来确保AI的安全和伦理发展。

在英国AI安全峰会上,牛津大学的AI专家提出了一些关键观点,其中一个关键议题是关于AI的监管。Ana Valdivia博士认为,英国需要制定AI法规,以在国际背景下与欧盟、美国和中国等国的法规保持一致。她认为,这是保障AI发展风险和机会平衡的关键挑战,倡导法规与创新相辅相成。她强调了AI安全峰会的国际性质,以及确保全球AI行业的可持续发展的重要性。

另一位牛津大学的AI专家John Tasioulas教授提到,峰会的声明将“安全”范围扩大,不仅包括避免灾难或对生命和身体的威胁,还包括确保人权和联合国可持续发展目标等。他认为,这标志着政治领导人意识到AI存在严重的挑战和机会,并愿意采取适当的行动。然而,他指出,将这些价值转化为有效的监管结构仍然需要大力工作。他认为,这需要广泛的民主参与,不能是由技术专家精英主导的自上而下的过程。这一观点强调了确保AI安全和伦理的法规制定过程必须考虑广泛的社会参与。

此外,Carissa Véliz副教授指出,峰会的成果还需要通过制定国际协议来体现其成功与否。她认为,如果峰会导致了一项关于AI伦理的适当且有约束力的国际协议,那么它将被视为一项成功。然而,要实现这一目标,国际社会需要更好地促使对话更具包容性。如果我们只留下一些漂亮的照片、无力而模糊的宣言和良好的愿望,那么峰会将被视为一次失败。这一观点强调了确保AI安全和伦理的法规制定必须采取切实行动,而不仅仅是口头表态。

Brent Mittelstadt教授指出,峰会的主要成果包括28个国家签署了一项声明,承诺将继续会晤并讨论未来AI风险,成立了AI安全研究所,并普遍认为需要更多的研究来确保未来AI的安全。然而,他强调,这些成果看似重要,但在AI伦理、法规和安全研究的背景下,需要慎重。他指出,这些问题在过去十年中得到了深入研究,并已经开发出了一系列技术和政策解决方案,以解决今天的AI系统带来的真正风险。他质疑为什么如此不愿意采取措施来解决已经存在的风险。这一观点强调了确保AI安全和伦理必须同时关注已经存在的问题和未来的风险。

Robert Trager教授表示,峰会的一个重要成就是将中国引入了这一讨论。中国重视数字伦理治理。他强调,没有中国的参与,将无法实现所需的有意义的全球AI监管。这一观点强调了确保AI安全和伦理必须具有全球性,而不仅仅是由少数国家或地区制定的法规。

Carissa Véliz副教授还提到了美国的白宫AI执行令,认为这是一个较为成功的努力,更接近实现AI安全和伦理的目标。她建议英国首先应在国内制定AI法规,而不仅仅是依赖大型科技公司来制定规则。这一观点强调了确保AI安全和伦理必须优先考虑社会公平和民主,而不仅仅是商业利益。

在峰会上,AI专家们还强调了全球协作的重要性。毕竟,AI是一种全球性技术,需要国际社会的共同努力来确保其安全和伦理。英国政府与中国的合作以及成立AI安全研究所都被视为峰会的重要成果,将助力确保不同国家和地区都能参与到AI监管的讨论中。


(注:本文仅供信息了解,供全球环境治理专家学者和感兴趣的读者参考。文章不代表平台观点。欢迎留言、点评、批评、讨论。)



 【思考题】学而时习之

Q1: AI安全和伦理问题的解决需要国际合作,但如何确保不同国家和地区的利益得到平衡?在全球AI监管中,如何处理不同国家和地区的参与问题,以确保AI技术的安全和伦理发展?


Q2: AI的长期风险和已经存在的风险之间存在紧张关系,如何平衡这两方面的问题?在确保AI的未来安全的同时,如何解决当下存在的风险,如虚假信息、公共服务偏见和高级网络攻击等问题,以保护社会的权益和价值观?








本文仅供资讯参考。不代表平台观点。
欢迎转发(请标注来源)。


文 |鲕迩  

编辑 | LYJ

排版 | 绿叶

往期同类主题文章
1. 韩国工人生产线上惨遭机器人误杀,机器人使用安全问题任重道远
2. 鲍里斯·孔采沃伊:人工智能伦理不光是政府的责任,而是一种“共同责任” |科技创新中伦理问题前瞻研究EP115
3. 世卫组织呼吁规范AI,确保AI技术在医疗中的伦理和安全 | 科技创新中伦理问题前瞻研究(122)

【参考链接】

https://www.gov.uk/government/topical-events/ai-safety-summit-2023


https://www.ox.ac.uk/news/2023-11-03-expert-comment-oxford-ai-experts-comment-outcomes-uk-ai-safety-summit


https://www.gov.uk/government/publications/ai-safety-summit-introduction/ai-safety-summit-confirmed-governments-and-organisations


 中国生物救护与科学伦理


欢迎关注“中国生物救护与科学伦理”微信公众号:科技与伦理的交汇点。本号更新频率为每日2~3篇,保持日耕不缀。


现代科技不断崭露头角,但随之而来的伦理问题也备受瞩目。“中国生物救护与科学伦理”微信公众号由中国生物多样性保护与绿色发展基金会生物与科学伦理委员会(简称绿会BASE)工作团队运营,旨在服务生物与科学伦理领域的科技工作者、教育工作者、思考者以及感兴趣的读者。


本公众号持续研究科技创新中的伦理问题,包括但不限于生态文明与绿色发展、合成生物学、遗传资源数字序列信息(DSI)、实验动物伦理等,关注科技进步与伦理价值的平衡;探讨动物福利、人工智能伦理、生态一带一路冲突(EBRs)及其可持续解决方案;同时覆盖学术伦理、科技伦理、治理伦理、环境正义、流浪动物(含反动物虐待)、食物伦理和野生动植物非法贸易等多领域议题。

作为一个探讨科技与伦理融合、推动“科技创新,伦理先行”的平台,欢迎关注《中国生物救护与科学伦理》微信公众号,点击“星标”,我们会每日持续更新最新的国内国际动态喔!期待这里成为一个平台,促进人们对伦理问题的思考,推动科技创新与伦理的有机融合,为经济社会的可持续发展保驾护航。



中国生物救护与科学伦理

联系小编:

010-88431370,   17319454776


投稿信箱,欢迎来稿:

v89@CBCGDF.org





继续滑动看下一个
中国生物救护与科学伦理
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存